歡(huān)迎來訪江蘇欧美久久人人网管(guǎn)路係統股份有限公司 官方網站!

您(nín)的位置 : 首頁>>解決方案
解決方案(àn)

AI大模型下的液冷發展趨(qū)勢

欧美久久人人网管路 2024-04-02 09:54:13 1852次 返回(huí)

剛剛過去的(de)周末,光(guāng)伏、儲能行(háng)業迎來重磅利好消息:摩根士丹利調高寧德時代目標價,在黃仁勳、奧特曼兩位大佬加持下“儲能與(yǔ)AI”的故事發酵。

640.webp.jpg

圖片來源網絡

摩根士丹(dān)利調高(gāo)寧德時代目標(biāo)價

3月10日,摩根士丹(dān)利發布報告,將中國電(diàn)池巨頭寧德時代(CATL)的評級上調至“超配”,並設定目標價為210元人民幣(bì)。在報告中,摩根士丹利分析師指出,寧(níng)德時代作為全球領(lǐng)先的電池製造商,受益於電動汽車市場的快速增(zēng)長和電池(chí)需求的攀升。

摩根士丹利發布報告指出,隨著價格(gé)戰接近尾聲,寧德時代準備通(tōng)過新一代大規模生產線提(tí)高成本(běn)效率,並擴大在淨資產(chǎn)收益率方麵的優勢,看到寧德時代在基本(běn)麵上的多個拐點,上調公司評級至超配,並選為行業首選。

另外,據央視網10日報道,寧德時代董事長曾毓群在(zài)采訪時談到了近期多家歐美車企削減或推遲電動化的話題,“歐美車企沒有回歸燃油(yóu)車,也沒有停止(電動汽車),可能(néng)是因為不賺錢,所(suǒ)以往後延遲一(yī)陣。”

從儲(chǔ)能業務來看,寧(níng)德時代是當之無愧(kuì)的王者。國海證券預計(jì),該公(gōng)司2023年動力和(hé)儲(chǔ)能電池的出貨量達380GWh以上,同(tóng)比增長31%以上(shàng)。單2023年四季度看,公司的出貨量達110GWh以上,同比增長(zhǎng)14%以上,環比(bǐ)增長10%以上。按(àn)四(sì)季度(dù)中值計算,假設公司的電池(chí)業務利潤貢獻在90%,則測算公司單(dān)Wh盈利在1毛左右,與公司2023年前(qián)三季度的單位盈利(lì)基本保持相當(dāng)。

黃仁勳、奧特曼(màn):AI的盡頭是(shì)光伏和儲(chǔ)能(néng)

消息麵上,在算力爆(bào)炒之後,“儲能+AI”的故事在剛(gāng)剛過去的這(zhè)個周末發酵了。據報道(dào),英偉達CEO黃仁勳(xūn)在一次公開演講中指出,AI未來發(fā)展與狀和儲能緊密相連。黃仁勳在演講中明確表示:“AI的盡頭是光伏和儲能!我們不能隻想著算力,如果隻考(kǎo)慮計算(suàn)機,我們需(xū)要燒掉14個地球的能源。”

早在2月27日,就有人在社交視頻上講“儲能與AI”的故事,引用的也是所謂“黃仁勳的(de)演講”。與此同時,OpenAI的(de)創始人山姆·奧(ào)特曼也提出了類(lèi)似的(de)看法。奧特曼表示,“未來AI的技術(shù)取決於能源,我們需要更多的光(guāng)伏(fú)和儲能(néng)。”

ChatGPT日耗電超50萬度

人工智(zhì)能技術的快速發展,帶來了巨大的算力和能(néng)源消耗。據《紐約客》雜(zá)誌報道,ChatGPT日耗電超50萬度,相當於1.7萬個美國家庭,以響應用戶的約2億個請求。

*近,在博世互聯2024大會上(shàng),馬斯克遠程連線接受了博世CEO和董事長的采(cǎi)訪(fǎng)。馬斯(sī)克提到人工智能的發展速(sù)度前所未見,似乎(hū)每過6個月的時間,算力就會增加10倍,遠遠超出了(le)摩爾定律每(měi)18個月翻番(fān)的速度。他(tā)預計,兩年內年將由“缺矽”變為“缺電”,而這可能阻礙AI的發展(zhǎn)。

“目前(qián)算力增長已經麵臨瓶頸,很明顯,接下來變壓器會陷入短缺,緊接著就是電力,等到2025年,我們將沒有足夠的電力來運行(háng)所有的芯片(piàn)。”馬斯(sī)克稱(chēng)。

事實上,馬斯克對電力短缺的擔憂也不(bú)是一天兩天了,此前曾多次公開強調解(jiě)決日益增長的電力需求的緊迫性。他認為,需(xū)要加(jiā)快項目進度,以(yǐ)跟上不斷增(zēng)長的電(diàn)力需求。

我國台灣地區4月電價(jià)調漲箭在弦上(shàng),“電價工作小組”3月(yuè)12日起將連(lián)開4場(chǎng)討論會。其中民生用電擬(nǐ)分三級距調漲,*小漲幅700度(或500度)以下約漲(zhǎng)5%,701~1000度(dù)約漲7%,1001度以上漲約10%;產業用電(diàn)依產(chǎn)業別分三級距調(diào)漲,但連二年用電成長、用(yòng)電50億度以上“超(chāo)級大戶”以公司別來(lái)看,調幅*高上看(kàn)近(jìn)3成,台積電首當其衝;但用(yòng)電衰退麵板(bǎn)、石化、鋼鐵,漲幅較小。4月電(diàn)價方案平均漲幅在10~15%。

波士頓谘詢(xún)公司(sī)就曾(céng)分析稱,預(yù)計2030年左右,美國數據中心的電力消耗將(jiāng)較2022年增(zēng)長三倍,相當於電力總需求的7.5%,會大幅提升社會用電量。

谘(zī)詢公司Grid Strategies也曾發布過一項研(yán)究,認為美國未來五年的年(nián)度電力需(xū)求增長大約(yuē)在1.5%左(zuǒ)右。而根據EIA的數據,美國發電量近15年來才增加了不到3%。過慣了供(gòng)需相對穩定日子的美(měi)國供電體係,和麵臨不少問題的電網,能否應對驟然增長的需(xū)求,尚有待(dài)觀(guān)察。

從(cóng)儲能業務來看,寧德時代是當之無(wú)愧的王者。國海(hǎi)證券預計,該公司2023年動力和儲能電池的出貨(huò)量達380GWh以上,同比增(zēng)長(zhǎng)31%以上。單2023年四季度看,公司的出貨量達110GWh以上,同比(bǐ)增長14%以上,環比增長10%以上。按四季(jì)度中值計算,假(jiǎ)設公司的電(diàn)池業務利潤貢獻在90%,則測算公司單Wh盈利在1毛左右,與公司2023年前三季度的單位盈利基本保持相當。



AI大模型下的液冷發展趨勢

摘要

液冷是一種用液體來冷卻電子設備的散熱技(jì)術,能夠顯著提(tí)高數據中心散熱效率。液冷技術根據冷卻液(yè)與發熱器(qì)件的(de)接觸方式不(bú)同,可(kě)以分(fèn)為間接液冷和直接液冷,其中間接液冷(lěng)主要包(bāo)括冷板式液冷,直接液冷包括浸(jìn)沒式液冷(lěng)和噴(pēn)淋式液冷。冷板式液冷和浸沒式液冷是目前主流的液冷形式,冷板式液冷應用*為(wéi)廣泛,在(zài)改造(zào)成本、可維(wéi)護性、兼容性方麵具備優勢;浸沒式液冷冷卻效果*好,節能性上優勢明顯,但(dàn)可(kě)維護性和兼(jiān)容性一般,多(duō)用於高功率密度機櫃。

控製當前(qián)數據中心溫控(kòng)方式仍以風冷為主,液冷(lěng)方案中冷板式技術更為普及。2022年數據中心(xīn)液冷技術(shù)的滲透率大概在5%~8%左右,風(fēng)冷仍然占據(jù)90%以上的市(shì)場份(fèn)額。按照服務器(qì)出(chū)貨量口徑統計,2023H1我國冷板式(shì)液冷服務器比例為90%左(zuǒ)右,浸沒式液冷滲透率為10%。

數據中心算力(lì)與能耗水(shuǐ)漲船高,逐(zhú)漸超出風冷散熱閾(yù)值,液冷散熱已是趨勢所向。Chatgpt為代表的生(shēng)成式人工智能模型拉升算力需求,百(bǎi)億參數(shù)成為模型湧現門檻,算力成為(wéi)大模型(xíng)性能提升的關鍵。大模型(xíng)帶來大算力,大算力帶來高功耗,Intel的多款CPU芯片的TDP已突(tū)破350W,NVIDIA 的H100係列GPU芯片TDP更是達到700W。這也導致單服務器和單機(jī)櫃功率均顯著上升,已經逐漸超出風冷散熱的覆蓋範圍,液冷(lěng)散熱已成(chéng)為必然趨勢。

PUE限製是現階段液冷技術發(fā)展(zhǎn)的核心驅動力(lì)。PUE代表數據中心(xīn)能源使用效率,等於(yú)數據中心總耗電/IT設備耗電,比值越接近於1,說明能源越接近全部都用於IT設備負載上。我國數據中心平均PUE為1.49,仍有半數(shù)區域的(de)數據中心PUE位於1.5以上。近幾年,國家與地方出台(tái)了一係列針對新建與老舊數據中心PUE的管控計劃,明確要求東、西部樞紐節點數據中心PUE分別控製在(zài)1.25、1.2以下(xià)。而傳統風冷(lěng)方案(àn)的數據(jù)中(zhōng)心PUE一般在1.5左右,高於政策要求的範圍;液冷方案能(néng)夠有效降低冷(lěng)卻係統(tǒng)的能耗水平,從而將數據中心整體PUE降低到1.05-1.2左右,滿足相關的政策要求。

數據中心TCO是液(yè)冷技術規模應用的關鍵因素。數據(jù)中心總成本(TCO)包括建(jiàn)設成本(Capex)和運營成本(Opex)。根據奕信通科(kē)技在2022年數據(jù)中心標準峰會發布的報告進行測算,以華東地區(qū)數據中心建設情況為例,現階段冷板式(shì)液冷方案的(de)TCO甚至Capex已(yǐ)經低於風冷,浸沒式液冷方案(àn)的TCO也(yě)將在運行五年左右之後出現低於風冷方(fāng)案的拐點。但是該測算(suàn)結果(guǒ)依(yī)賴於一定的前提條件:如機櫃功率達到30KW、不計算服(fú)務器折(shé)舊和服務器運營支出、水電費(fèi)與房租等運營成本(běn)按華東地區情況計價、采用(yòng)集中(zhōng)式大型IDC機房且IT設備(bèi)在12個月線性上架後實(shí)現80%負載率、外界氣溫對製冷係(xì)統的能耗需(xū)求較高等。因此在西北部地區、較小型數據中心等場景下(xià)液冷(lěng)技術的經濟性尚沒有完全體現。但在數據中心發展的大型化(huà)、集約化的(de)趨勢下,且液(yè)冷方案仍存(cún)在每年降本5-10%的空間,再考慮到液(yè)冷方案能夠有效延長服務器使用壽命,未來(lái)液冷數據中心TCO的優(yōu)勢將更(gèng)加(jiā)明顯。

控製數(shù)據中心液冷未來市場規模估算:到2025年,中國數據中心(xīn)液冷市場規模將達(dá)到359億元左右,CAGR達到72.4%;AI數據中(zhōng)心液冷市場規模將達到280億元左(zuǒ)右(yòu),CAGR達到(dào)71.4%;通用數據中心液冷市場規模將達到79億元,CAGR達到76.2%。

1液冷技術詳解

液冷是(shì)一種用液體來冷卻電子設備的散熱技術。液冷的工作原理是以液體作為冷媒,利用液體的高熱容和高熱(rè)傳導性能,通過液體流動將IT設備的內部元器件產生的熱量傳遞到設備外,使IT設備的(de)發(fā)熱器件得到冷卻,以保證(zhèng)IT設備在安(ān)全(quán)溫度範圍內運行(háng)(本文主要討論數據中心(xīn)應用(yòng)場景下的液(yè)冷技術)。根據冷卻液與發熱器件的接觸方式不同,可以分為(wéi)間接液冷和直接液冷(lěng)。間接液冷是指服務器熱源與冷卻液之間沒有直接接觸的換熱過程,以冷板式液冷技術為(wéi)主。直接液冷是指將發熱部件與冷卻液直(zhí)接接觸的(de)冷卻方式,包(bāo)括浸沒式和噴淋式液冷技(jì)術。其中又可以根據冷(lěng)卻液是否會發生液態到氣態的轉變,將浸沒式液冷分為單相浸沒式液冷和(hé)雙相浸沒式液冷。當前,冷板式液冷和浸沒式液冷為液冷的主要形式。

640.webp (1).jpg

液冷係統通用架構(gòu)包括室外側和室內側兩(liǎng)部分:室外側包含冷卻(què)塔、一次側管網、一次側冷卻液;室內側包含 CDU、液冷(lěng)機櫃、ICT 設備、二次側管網(wǎng)和二次側冷卻液。室外側為外部冷源,通常為室外的(de)冷水機組、冷卻塔或幹冷器,熱量轉移主要通過水溫的升降實現;室內(nèi)側包括供(gòng)液環路和服務(wù)器內部流道,主要通過冷卻(què)液溫度的升降實現熱量(liàng)轉移;兩個部分通過(guò)CDU中的板式換熱器發生間壁式換熱(rè)。

640.webp (2).jpg

1.1 冷板式(shì)液冷

冷板式液冷屬於間接液冷,冷卻液不與服務器芯片直接接觸(chù)。冷(lěng)板式液冷也被稱作芯片級液冷,技術原理是通過在服務器組件(如 CPU、GPU等高發熱部件)上安裝液冷板(通常(cháng)為銅鋁等導熱金屬構成的(de)封閉腔體),服務器組件通過導熱部件將熱量傳導到液冷(lěng)板上,然後利(lì)用液冷板內部的液體循環將(jiāng)熱量傳遞到遠離服務器的散熱單元;同時一般會增設風冷(lěng)單元為低(dī)發熱(rè)元件進行散熱。

冷板式(shì)液冷(lěng)係統主要由冷卻塔、CDU、一次側 & 二次側液(yè)冷管路、冷卻介質、液冷機櫃組成;其中(zhōng)液冷機櫃(guì)內包(bāo)含液冷板、設(shè)備內液冷管路、流體連接器、分液器等。

640.webp (3).jpg

1.2 浸沒(méi)式(shì)液冷

浸沒式液冷(lěng)屬於直接液冷,將發熱器(qì)件浸沒(méi)在(zài)冷卻液中進行(háng)熱交換,依靠冷卻(què)液流動循環帶走熱量(liàng)。

浸沒式(shì)液冷係統室外側包含冷(lěng)卻塔、一次側管網、一次側冷卻液;室內側包含 CDU、浸沒腔(qiāng)體、IT 設備、二次側管網和二(èr)次側冷卻液(yè)。使用過程中 IT設備完全浸(jìn)沒在二次側冷卻液中,因此二次側循(xún)環冷卻液需要采用不導電液(yè)體(tǐ),如礦物(wù)油、矽油、氟化液等。

浸沒(méi)式液冷根據冷卻液換熱過程中是否發生相變,可(kě)以進一步分為單相浸沒式液冷和雙相浸沒式(shì)液冷技術。

1.2.1 單相浸沒式液冷

在單相浸沒式液冷中,冷卻液在熱(rè)量傳遞過程中(zhōng)僅發生溫度變(biàn)化,而不存在相態轉變。單相浸沒式液冷的技術原理為:CDU循環泵驅動二次側低溫冷卻液由浸(jìn)沒腔體底部進入,流經豎插(chā)在浸沒腔體中的IT設備時帶走發熱(rè)器件熱量;吸收熱(rè)量升溫後的二次側冷卻液由浸沒腔體頂部出口流(liú)回CDU;通過CDU內部的板式換熱器將吸收的熱量傳遞給一次側(cè)冷(lěng)卻(què)液;吸熱(rè)升溫後的一次側冷(lěng)卻(què)液通過外部冷卻裝置(如冷(lěng)卻塔)將熱量排放到(dào)大氣環境中,完(wán)成整個(gè)冷卻過程。

640.webp (4).jpg

1.2.2 雙相浸沒式液冷(lěng)

雙相(xiàng)浸沒式液冷的(de)不同(tóng)之(zhī)處在於冷卻(què)液會(huì)發生相態轉變。雙相浸沒式液冷的傳熱路徑(jìng)與單相浸沒(méi)液冷基本一致,主要差異在於二次側冷卻液僅在浸(jìn)沒腔體內部循環區域,浸沒腔體內頂部為氣態區、底(dǐ)部為(wéi)液態區;IT設備完全浸沒在低沸點的液態冷卻液中,液態冷卻液吸收設備熱量後發(fā)生沸騰,汽化產生的高溫氣態冷卻液因(yīn)密度較小,會逐漸匯聚(jù)到浸沒腔體頂部,與安裝在頂部(bù)的冷凝器發生換熱後(hòu)冷凝為低溫液態冷卻液,隨(suí)後在重力作用下回流至腔(qiāng)體底部,實現(xiàn)對IT設備的散熱。

640.webp (5).jpg

1.3  淋(lín)式液冷

噴淋式液冷屬於直接液冷,將(jiāng)冷卻(què)液精準噴灑於(yú)電子設備器件進行散熱。冷卻液借助特製(zhì)的噴淋板精準(zhǔn)噴灑至(zhì)發熱器件或與之相連(lián)接的固(gù)體(tǐ)導熱材料上,並與之進行熱交換,吸(xī)熱後的冷卻液換熱後將通過回液管、回液箱等集(jí)液裝置進行收集並通過循(xún)環泵輸送至CDU進行下一次製冷循環。

噴淋式液冷係統主要(yào)由冷卻塔、CDU、一次側 & 二次側液冷管(guǎn)路、冷卻(què)介質和噴(pēn)淋(lín)式液冷機櫃組成;其中噴(pēn)淋式液冷(lěng)機櫃通常包含管路係統、布液係統、噴淋模塊、回液係統等。

640.webp (6).jpg

1.4 不同液冷方案的比較

640.webp (7).jpg

1.4.1 冷板式液冷目前應用*為(wéi)廣泛,在改造成本、可維護性、兼容性(xìng)方麵具備優勢

冷板式液冷的優勢主要在(zài)於:

1)兼容性:冷板式液冷的改造成本相對較低,不需要對數據中心現有的機房及機櫃進行大規模改造,其適用的(de)硬盤(pán)、光模塊等服務器部件與風冷方案一致,運維模(mó)式、機房承重與風冷場景(jǐng)也基本一致;

2)散熱效果與節能性:冷卻效果(guǒ)和節能性要(yào)遠好於風冷,PUE可(kě)以達到1.2左右(yòu);(據《綠色高能效數據中心散熱冷卻技術研(yán)究(jiū)現狀及發展趨勢》數據(jù)顯示,風冷散熱下數據中心的 PUE 值通常(cháng)在1.5左右)

3)可(kě)靠性:液體(tǐ)與設備不直接接觸,可靠性更高;

4)維護性:易開展維護性設計,可實現在線維護方案;

5)噪聲:風機轉速大幅降低,噪(zào)聲值可至 70dB 左(zuǒ)右。

冷板式液冷的局限性主要在於(yú):

1)液體沒有與電(diàn)子器件直接接觸,而是通過金屬管壁進行熱交換,與直(zhí)接接觸(chù)的浸沒式液冷相比冷卻與節能(néng)效果欠(qiàn)佳;

2)IT設備、冷卻液、管路、供配電等不統一,服務器多與機櫃深耦合;

3)管路接頭、密封件較(jiào)多,漏液維護複雜。

1.4.2  浸沒式液冷的散熱效果和節能性(xìng)優勢明(míng)顯,但兼(jiān)容性和維護性(xìng)一般,多用於(yú)高功率密度機櫃

浸沒式液冷的優勢主要(yào)在於:

1)散熱效果與(yǔ)節能性:與(yǔ)冷板(bǎn)式液冷相比,浸沒式液冷中采(cǎi)用了直接接觸(chù)式的熱交換,傳熱係數高,冷卻效果更好,節能性更強(雙(shuāng)相浸沒式(shì)液冷方案的(de)PUE在1.04-1.07左右,單相浸沒(méi)式為1.09左右)

2)緊湊:支持高密機櫃,單櫃散熱(rè)量高達(dá)160kW;同時,機櫃間無需隔開距離,機房不需(xū)要空調(diào)和冷凍機組、無需架空(kōng)地板、無需安裝冷熱通道封(fēng)閉(bì)設施;

3)可靠(kào)性:設備完全浸沒(méi)在液體中,排除了溫度(dù)、風機振動、灰塵等帶來(lái)的可靠性問題;

4)噪聲:100%液體(tǐ)冷卻,無需配置風扇,實現**“靜音”機房。

浸沒式(shì)液冷的局限(xiàn)性主要在於:

1)兼容性較差:IT設備需要定(dìng)製,光模塊、硬(yìng)盤等部件兼容(róng)性(xìng)仍待驗證;此外,雙相浸沒式液冷方案適配的服務器需(xū)改為刀片式,其專用機櫃對於管路要求(qiú)高,控製複雜;

2)維護複雜(zá):浸沒式液冷設備維護時需要打開Tank上蓋,並配備可移動機械吊臂或專業維護車實現(xiàn)設備的豎直插拔(bá),維護複雜度(dù)高,耗(hào)時長(zhǎng);且開蓋維護過程有一定的冷卻液揮發問題,增加運行成本;

3)承(chéng)重要求高:因浸沒式液冷係統Tank內充滿冷卻液,整櫃重量(liàng)大(dà)幅增加(jiā),對機房有特殊承重要求,普遍要求浸沒(méi)式液冷機房地板承重應大於1500kg/m2;

4)國產冷媒待驗證:單相浸沒式液冷方案所(suǒ)使用的國產冷媒仍待驗證(zhèng)。

浸沒式液冷比較適用於(yú)對功率密度、節能性(xìng)要求較高的大(dà)型數據中心,特別是地理位置較為特殊、空間有限的數據中心。

1.4.3 噴淋(lín)式液冷在安(ān)裝便利性、空間利用等方麵有優勢,但(dàn)是現階段落地應用相對較少

噴淋式液冷不(bú)需要對數(shù)據中心基礎設施進行大幅改動,安裝便捷,空間利用率高,且噴淋方式(shì)能夠節(jiē)省冷卻液,其(qí)不足在於服務器(qì)整體密封於氣(qì)相櫃(guì)中,排液、補液,維(wéi)護時會破壞服務器原有密封結構(gòu)。目前噴淋式液冷技術的應用場景有限,隻有少量數據中心(xīn)采用了噴淋式液冷技術。

2 數據中心液冷行業基本情況與競爭格局

2.1 基本情況:數據中心液冷行業如日方升,液冷技術有望加速導入

數據中心溫控方式仍以風冷(lěng)為(wéi)主,液(yè)冷技術有望加速導入。目前數據中心的散熱(rè)方式仍然以風冷為主,在算力設(shè)備以及數據中心機(jī)房的高(gāo)熱密度趨勢和高能效散(sàn)熱要求的雙(shuāng)重推動下,預計未來液冷將成為主流的數據中心溫控方式。根據產(chǎn)業調研與曙光數創的信息,2022年數據中心液冷技(jì)術的滲透率大概在5%~8%左右(yòu),風冷仍然占據90%以上的市場份額(é);預計2025-2028年時液冷技術的滲(shèn)透率有望達到30%。

液(yè)冷(lěng)方式以冷板式為主,浸沒(méi)式技術有望加速推廣。當前主流的液冷(lěng)技術包括冷板(bǎn)式液冷和浸(jìn)沒式液冷,由於冷板式液冷對(duì)於數據中心的改(gǎi)造難度較低,改造所需成本也較為可控,所以目前冷板式液冷的市場應用相對更加普(pǔ)及。根據IDC《中國半年度液冷服(fú)務器市場(2023上半年)跟蹤》報告,按(àn)照服務器出貨量口徑(jìng)統計,2023H1我國冷板式液冷服務器比例達到90%左右,浸沒式(shì)液冷滲(shèn)透率僅為10%。但隨著國家對於(yú)數據(jù)中心(xīn)PUE的政策要求的愈發嚴格,機櫃功率密度的持續(xù)抬升(shēng)以及浸沒式液冷技術的逐漸成熟,浸沒(méi)式液(yè)冷方案有望進入加(jiā)速推廣期。

2.2 產業鏈:涉及環節眾多,存在較高進入壁壘

液冷產(chǎn)業鏈涉及環節眾(zhòng)多,包括上遊的(de)液冷設備及產品零部件提供商、中遊的(de)液冷服務器及液冷基(jī)礎設施提供商與下遊的(de)數據中心使用者。上遊主要為產(chǎn)品零部件及液冷設備,包(bāo)括快(kuài)速接頭、CDU、電磁閥、浸(jìn)沒液冷TANK、manifold、冷卻液等產品,代表性廠商有英維克、3M、高瀾股份、雲酷、奕信通、廣東合一、綠色雲圖、巨化股(gǔ)份等(děng)。中遊主要為液冷服務器、芯片(piàn)廠商以及液冷集成設施、模塊與機櫃等,代表性廠商有華為、中興、浪潮、曙光、新華三(sān)、聯想、超聚變、英特爾等。下(xià)遊主要為數據中心的(de)使用者,包括三(sān)家電信運營商,百度、阿(ā)裏巴巴、騰訊、京東等互聯(lián)網企業,數據港(gǎng)、光(guāng)環新網等第(dì)三方IDC服務商以及政府、科研機構、金融、能(néng)源、交通等其他信息化需求客戶。

640.webp (8).jpg

產業鏈(liàn)存在(zài)較高的技術、人才、客戶認證壁壘。

1)技術壁(bì)壘:液冷數據中心基礎設(shè)施產品的研發和製造涉及冷卻技(jì)術、製冷係統設計及仿真技術、溫濕度解耦控製(zhì)算法等多項技(jì)術(shù)領域(yù),要求企業在(zài)液(yè)冷核心技術進行多年研(yán)究積(jī)累,深入(rù)掌(zhǎng)握液冷技術(shù)的相關原(yuán)理和(hé)應用。此外,液冷數據中心基礎設(shè)施產品工藝流程複雜,需要掌握生產製造流程中(zhōng)的核心工藝,同時需(xū)具備成熟的控製體係,對產品質量進行把控,保證產品的合格率,因此數據中心液冷行業具有(yǒu)較高的技術壁壘。

2)人才壁(bì)壘:液冷數(shù)據中心基礎設施領域屬於新興技術密集(jí)型產業,產(chǎn)品(pǐn)性能涉及材料化學、熱力學、電子學、計算機科學(xué)等多(duō)學科,並且數據中心的製冷係統存在定製化特(tè)征,因此對研發技(jì)術人員的技術研發能力和行業經驗要求較高。目前行業發展曆程較短,技術與產品仍處於驗證階段,高端技術人(rén)才(cái)相對稀缺(quē),且高端人才主要集中規模較大(dà)的企業以及***研究機(jī)構中,因(yīn)此新(xīn)進企業難以在短期(qī)內培養出一(yī)批具備技術開發實(shí)力並擁有豐富實踐(jiàn)項目經驗的專業技術隊伍,由此數據(jù)中心液冷行業存在較高的專業人才壁壘。

3)客戶認證壁壘:出於安全性、穩定性等考慮,企業客戶在選擇液冷數據中心基(jī)礎設施供應(yīng)商(shāng)時通常需要進行嚴格的資質驗證。尤其是(shì)金(jīn)融、醫藥等機(jī)構出於數據安全、保密(mì)等要求(qiú),對液冷數據中心基礎設施解決方案供應商挑選非常(cháng)嚴格,需要對企業產品質量水平、項目經驗、技(jì)術研發能力進行綜合考察(chá),因此認證過程複雜且耗時較長。液冷數據中(zhōng)心基礎設施廠商應具備較強的產品研發能力(lì)、穩(wěn)定的產品供應以及(jí)售後服務經驗,同時具備豐富的技術儲備,才能滿足不同客戶(hù)的需求。另一方麵,由於更換液冷數據(jù)中心基礎設施供應商會對產品的穩(wěn)定性形成風險,客戶在與液冷數據中心基礎設施供應商建(jiàn)立生產配(pèi)套關係(xì)後,傾向於維持與現有技術(shù)供應商的合作,不會輕易更(gèng)換主要供應商,因此先進入者一(yī)旦建立起自身客戶資(zī)源、形成先發優勢(shì),新進入企業(yè)將很難在短期(qī)內(nèi)爭奪市場份(fèn)額、改(gǎi)變行(háng)業現有格局,因此數據中心液冷行業具有較高的客戶(hù)認(rèn)證門(mén)檻。

2.3 競爭格局:行業仍(réng)處於技(jì)術驗(yàn)證階段,市場格局尚不明確

目前液冷(lěng)行業仍處於(yú)技術驗證階段,技(jì)術路線、產品結構、行業標準等還無(wú)定數,國外廠商難以進入中(zhōng)國市場,市場競爭格局尚不(bú)明確。目前市場中主要廠(chǎng)商在液冷技術和產品方麵還處於實驗研究或初步應用階(jiē)段,產品結構與行業標準尚在演進(jìn),市場內還未形(xíng)成具備較強核心(xīn)競爭力的龍頭廠商,市場競(jìng)爭格局尚未穩定。此(cǐ)外,由於中國(guó)對數(shù)據安全的保護,在數(shù)據中心基礎設施(shī)的供應方麵存在一定的地(dì)域壁壘,因(yīn)此(cǐ),目(mù)前國外廠商的產(chǎn)品的應用主要(yào)以其本國(guó)市場為主(zhǔ),進(jìn)入中國市場較為(wéi)困難。

3 數據中心(xīn)液冷行業未來看點

3.1 推理/訓練服務(wù)器功耗(hào)有(yǒu)望達到10/2kW,液冷方案成為首選

生(shēng)成式人工智能橫空出世,助推AI算力(lì)景氣度。受ChatGPT為代表的生成式人工(gōng)智能大模型(xíng)等新業態帶動,全新的AI應用場景有望在未來3-5年爆發(fā),百億參數是(shì)大模型具備湧現能力的門檻,千億(yì)參(cān)數的大模型(xíng)將具備較好的湧(yǒng)現能力,AI算力成為大模型能力提升(shēng)的核心驅動力。現階段ChatGPT的總算力消耗達到了3640PF-day(每秒計算一千萬億次,需要計算3640天),需要7-8個投資(zī)規模30億元,算力500P的超大(dà)數據中心(xīn)才能支撐其訓練過程,AI算(suàn)力的重要性不言(yán)而喻。據IDC預測,全球AI算(suàn)力市場規模將從2022年的195.0億美元增長到2026年的346.6億美(měi)元,其中生成式AI算(suàn)力(lì)市場規模將從2022年的8.2億美元增長到2026年的109.9億美元(yuán),生成式AI算力占整體AI算力市場規模的比例將(jiāng)從4.2%增長到31.7%。

640.webp (9).jpg

大模型帶來高算力(lì),高算力帶來高功耗(hào)。隨(suí)著AI計算、HPC計算等高性能(néng)計算需求不斷提升(shēng),CPU、GPU等(děng)計算芯片朝高算力、高集成(chéng)方向演進,同時(shí)也導致單顆計算芯片功耗(hào)的大幅提(tí)升。對(duì)於CPU、GPU、ASIC等計算芯片而言,一方麵可以通過增加計算核(hé)心數或提高單核心的主頻(pín)等方式(shì)來提高算力,此舉會顯著(zhe)增加芯片的TDP(熱設計功耗);另一方麵可以(yǐ)依靠先進(jìn)製程技(jì)術來縮減單位算力對應的TDP(TDP/算力)。但是由於先(xiān)進製程技術推進較慢等因素(sù),單位算力對應TDP的下(xià)降幅度逐年減少,且遠不及算力的增長速度,這也(yě)導致了AI芯片(piàn)功(gōng)耗的大幅攀升(shēng)。當前(qián),Intel的多款CPU芯片的TDP已突破350W,NVIDIA 的H100係列GPU芯片的TDP更高達700W。

640.webp (10).jpg

計算芯片高功(gōng)耗造成單(dān)服務器功耗顯著提高。單服務器功耗大部分源於計(jì)算芯片,服務器的核心組件包括CPU(中央處理器)、GPU(圖形(xíng)處理器)、內存芯片、SSD(固態硬盤)、網(wǎng)卡、PCB主板、RAID卡、HBA卡和電源等。CPU/GPU等計算芯片在通用服務器功耗中占比約為50%左右,而在AI服務器中,計算芯片(piàn)的功耗占比高(gāo)達80%以上。我們參考2022-2023年中國電(diàn)信集采AI服務器配置與阿裏雲通用服務器配置進行功耗(hào)計算,服務器的功耗可以粗略估計為所有組件的功耗總和;選取(qǔ)超聚變FusionServer 2288 V7作為通用服務器的代表型號,超聚變FusionServer G5500 V6作為AI訓(xùn)練服務器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務(wù)器的代表型號。

通(tōng)過我們的測算,通用服務器的總功耗為595W,AI訓練服務器的總功(gōng)耗為7015W,AI推理服務器的總功耗為1615W。但是由於(yú)芯片超頻,額外的NVLINK模組等因素的(de)存在,計算芯片的實際滿載功耗往往會高於官方標定的功耗。以上因素導致服務器的實際功(gōng)耗可能會(huì)高於各組(zǔ)件的總功耗,具體的功耗還要以實際測試為準。根據超聚變服務器(qì)功(gōng)耗計算器的測(cè)算,當前配置下的通用服務器的實際滿載功耗為700W左右,AI訓練服務器的實際滿載功耗(hào)為(wéi)9800W左右,AI推理(lǐ)服務器的實際(jì)滿載功耗為2000W左右。(該過程(chéng)僅為根據公開資料的估算(suàn),請以實際環(huán)境和負載下的測算(suàn)為準)

640.webp (11).jpg

隨著服務器功耗(hào)提高,單(dān)機櫃(guì)功率上升趨勢(shì)明(míng)顯。根據Uptime Institute相關報告數據顯(xiǎn)示,2020年(nián)全(quán)球數據中心單機櫃功率密度達到8.4kW/機櫃,相比(bǐ)於(yú)2017年的5.6 kW/機櫃有明(míng)顯提(tí)升;其中(zhōng)71%的(de)數據中心平均功率(lǜ)密度低於10 kW/機櫃,17%的數據(jù)中心平均(jun1)功率密度(dù)高於20kW/機櫃,預計未來數據中心功率密度將繼續上升,高密(mì)度數據(jù)中心占比將持續提(tí)高。

單機櫃功率逐漸超出(chū)風冷散熱閾值,液冷(lěng)散熱已是趨(qū)勢所向。風冷散熱一般適用於20Kw/機櫃(guì)左右的功(gōng)率密度以下,20Kw/機櫃以上時液冷散熱優勢(shì)明顯。通用(yòng)服務器通常為2U,AI訓(xùn)練服務器通常為(wéi)6U,AI推理服務器通常為4U,標準機櫃為42U;考慮到電源模塊、網絡模塊等因素,假設單機(jī)櫃內可以放置18個通用服務器或6個AI訓練服務器或9個(gè)AI推理服務(wù)器,根據之前對(duì)於(yú)服務器(qì)功耗的測算,則(zé)單機櫃功(gōng)率可以(yǐ)分別達到12.6kW(通用),58.8kW(AI訓練)和18kW(AI推理);考慮到機(jī)櫃中其他(tā)模塊的散熱情況,實際單機櫃功率(lǜ)會更高(gāo)。對於通用服務器機櫃,其單機櫃功率(lǜ)已經開始逐步靠近風冷散熱閾值,隨著通用服務器功耗的持續上升,液冷散(sàn)熱的優勢有望逐步(bù)顯現;對於(yú)AI訓練與推理服務器機櫃,其單機櫃功率已經逼近或者超出了風冷散熱所能覆蓋的功率密(mì)度範(fàn)圍,液冷散熱(rè)已成大勢所趨(qū)。

3.2 PUE限(xiàn)製是現階段液冷技術發展的核心驅動力

數據中心耗電量不斷提升,綠色低碳成(chéng)為必然趨勢。數據中心(xīn)是能耗大戶(hù),其包含(hán)大量(liàng)的 IT 設備、供電與製冷設備。隨著數據(jù)中心算力與(yǔ)功耗的不斷增(zēng)長,數據中心耗電量必將呈快速增長趨勢(shì),綠色低碳必將並且已(yǐ)經成(chéng)為新型數據中心發展的重要基(jī)本原則之一。

我國數據中心平均PUE為1.49,仍有半數區域的數(shù)據中(zhōng)心PUE位於1.5以上。PUE 全稱 “Power Usage Effectiveness(能源使用效率)”,是數據中(zhōng)心消耗的一切能源(yuán)與 IT 負載運用的能源之(zhī)比,比值越接近於1,說明(míng)能源越接近全部都用於 IT 負載上。目前我國(guó)一半以上區域的數據中心 PUE 值都在(zài) 1.5 以上,即消(xiāo)耗在冷卻等非 IT 負載上的能(néng)源,占到了(le) IT 負載的一半以上。截至2021年(nián)全國數據中心平(píng)均(jun1)PUE為1.49,還有華南、華東(dōng)、西北和西南區域的數(shù)據中心PUE超過1.50,僅有東北、華北和華東區(qū)域的數據中心PUE在1.50以下。

640.webp (12).jpg

數據中心PUE管控(kòng)日趨嚴格(gé),針(zhēn)對老(lǎo)舊(jiù)與新建數據中(zhōng)心均出台強力約束措施。國(guó)家與地方出台了一係列政策對數據中心能耗管理進行規範,不斷強調數據中心綠色高質量發展的重要性。2021年7月,工信部印發《新型(xíng)數據中心發展(zhǎn)三年行動計劃(2021-2023年)》,要求到2021年底,新建大型及以上數據(jù)中心PUE降低到1.35以下;到2023年(nián)底,新建大(dà)型及以上數據中心PUE降低到1.3以下,嚴寒和寒冷地區降低到(dào)1.25以下。2022年8月,工信部等七部門印發《信息(xī)通信行業綠色低碳發展行動計劃(2022-2025年)》,要求(qiú)到2025年,全國新建大型(xíng)、超大型數(shù)據中心電能利用(yòng)效率(PUE)降到1.3以下,改建核心機房PUE降到1.5以下。除此之外,地方也出台了一係列數據中心PUE要求相關的政策文(wén)件,其中北京針對(duì)數據中心的年能源消耗量設立了多層次PUE要求,年能源消耗量越高的數據(jù)中心PUE要求越高,此外還針對PUE超過(guò)1.4的數據中心實行電價加價措施。

640.webp (13).jpg

640.webp (14).jpg

冷卻係統占據數據中心除IT設備負載外的能耗中的絕大部分,液冷技術(shù)能夠有效(xiào)降(jiàng)低冷卻係統能耗,進而降低(dī)數(shù)據中心PUE,滿足監管政策要求。PUE為1.92的數據中(zhōng)心下冷卻係統能耗占總能耗的(de)比例為38%左(zuǒ)右,而PUE為(wéi)1.3的(de)數據(jù)中心下(xià)冷卻係統能耗占比下降(jiàng)至18%,這意(yì)味著降低數據中(zhōng)心(xīn)PUE的關鍵(jiàn)就在於(yú)降低冷卻係統的能耗(hào)表(biǎo)現。在同等的散熱水平下,傳統風冷方案的數據中心PUE一般為1.5左右,液冷方案的PUE值可降至1.05-1.2左(zuǒ)右,能夠(gòu)滿足當(dāng)前政策對於數(shù)據中心PUE的要求。

3.3 數據中心TCO是液冷(lěng)技術規模應用的關鍵因素

數據中心總(zǒng)成本(TCO)包(bāo)括建設成本(Capex)和運營成本(běn)(Opex)。Capex一般指建設成本,包括土地獲取、勘察、規劃設計、設(shè)備購置(zhì)、建設(shè)、安裝以及係統調測(cè)等費用;Opex一般指運營成本,主要包含電力、冷卻散(sàn)熱等基礎設施成本、維護成(chéng)本及管理成本。低成本是數據中心建立競爭優勢的關(guān)鍵,也是(shì)降(jiàng)低投(tóu)資回收期和持續(xù)發展的關鍵。

我(wǒ)們基於華東地區(qū)、2N UPS、30kW每機櫃等常見數據中心配置(zhì)進行風冷、冷板式液冷和浸沒式液冷等不同冷卻方式下的TCO測算(本文關於TCO的討論均(jun1)不考慮服務器等(děng)IT設備成本)。市場普遍(biàn)認為,風冷方案在Capex上更具經濟(jì)性,液冷方案隻(zhī)在後續的Opex中(zhōng)有一定的優勢。但是根據奕(yì)信通科技在2022年數據中心標準峰會(CDCC)發布的報告進行測算,現階(jiē)段選擇冷板式液冷(lěng)方(fāng)案的(de)Capex已經低於風冷方案,即便是浸沒式液冷(lěng)方案(àn),也將在運行5年左右之(zhī)後出現(xiàn)TCO低於風冷方案的拐點(diǎn)。(該過(guò)程(chéng)僅為根據公開資料的估算,請以實際環境和負(fù)載下的測算為準)

但是該測算結果依賴於一定的前提(tí)條件(jiàn):如機櫃功率達到30KW、不(bú)計算服(fú)務器折舊和服務器運營支出、水電費與房租等運營成本按華東地區情況(kuàng)計價、采用集中式大型IDC機房且(qiě)IT設備在12個月線(xiàn)性上架後實現80%負載率、外界氣溫對製(zhì)冷(lěng)係(xì)統的能耗(hào)需求較高等。因此在西(xī)北部地區、較小型數據中心等場(chǎng)景下液冷技術的經(jīng)濟性(xìng)尚沒有(yǒu)完全體現。但在數據中心(xīn)發展的大型化、集約化的(de)趨(qū)勢下(xià),且液冷方案仍存在每年降本5-10%的(de)空間,再考(kǎo)慮到液冷方案能夠有效延長服務器使用壽命,未來液冷(lěng)數據中心TCO的優勢將更(gèng)加明顯。

640.webp (15).jpg

機電部(bù)分包括製冷係統、配電係統、機櫃係(xì)統(tǒng)、布線係統和監控管理(lǐ)係統的購置和安裝成本,不考慮IT設備(bèi)成本。

640.webp (16).jpg

液冷方案與(yǔ)風冷方案相(xiàng)比:1)其機電部(bù)分的Capex可以節省掉冷凍水機組/冷(lěng)凍(dòng)水(shuǐ)精密空(kōng)調,減少UPS和開關(guān)設備的容量等;2)需要增加(jiā)密(mì)封機箱、冷卻液、冷板、熱交換(huàn)器、防滴(dī)漏連接器和機架(jià)式分液器(qì)等液(yè)冷設備方麵的成本;3)液冷方案下同樣外電體量的數據中心內空間利用率更高,能承載更多IT設備,每ITkW(IT設備功率)下的分攤成本更低。根(gēn)據假設條(tiáo)件測算,風冷、冷板式(shì)液冷、浸沒式液(yè)冷方案的機電(diàn)部分Capex分別為16000-18000元/ITkW、15000-17000元/ITkW和23000-28000元/ITkW左(zuǒ)右。冷板式液冷方案下分攤到每ITkW下的機電部(bù)分Capex與風冷方(fāng)案基本持平(píng)甚至更低;浸沒(méi)式液冷方案所需增加的機電設備較多,分攤下來(lái)每ITkW的Capex相比於風冷仍有7000-10000元/ITkW左右的上升。

640.webp (17).jpg

土建部分主要(yào)包括(kuò)建築物成(chéng)本。風冷和液冷方案的土建(jiàn)成本差異主要在於同樣體量的數據中心(xīn)內,液冷方案下建築所需的建築麵積更(gèng)小。根據奕信通科技測算,風冷、冷(lěng)板式液(yè)冷、浸沒式液冷的土建部分Capex分別為5000元/ITkW,3000元/ITkW和3500元/ITkW左右。

外電和能評部分主要包括獲取外電資源,通過能(néng)評驗收(shōu)所需付出的成本。與風冷相比,液冷方案的PUE更低更節能,獲取外電資源,通(tōng)過能評驗收(shōu)的難度(dù)相對會小很多(duō)。根據奕信通科技測算,風(fēng)冷、冷板式液冷、浸沒式液冷的外電和能評部分Capex分別為4000元/ITkW,2000元/ITkW和2000元/ITkW左右。

640.webp (18).jpg

Opex中占比*高的(de)是電力成(chéng)本,液冷技術(shù)可以有效降(jiàng)低電力(lì)成本。數據中心的Opex主要包括電力成本、固定資產(chǎn)折(shé)舊、房租、人工費等等,其中電力成本占比*高,達到56.7%(風冷情(qíng)況下)。

640.webp (19).jpg

浸(jìn)沒式液(yè)冷方案的Opex*具優勢。根據奕(yì)信通科技測算,風冷方案的Opex為(wéi)9360-9720元(yuán)/ITkw/年左右,冷板式液冷方案的Opex為8040-8400元(yuán)/ITkw/年左(zuǒ)右,浸沒式液冷方案(àn)的Opex是7800-8160元/ITkw/年左右。

640.webp (20).jpg

現階段選擇(zé)冷板式液冷的初始TCO已經低於風冷,浸沒式液冷的TCO將在5-6年之後(hòu)低於風冷。我們根據以上測算結果進(jìn)行10年期的TCO測算,那麽風冷的Capex和Opex分別為26000元/ITkW和9540元(yuán)/ITkW/年,冷板式液冷的Capex和Opex分別(bié)為21000元(yuán)/ITkW和8220元/ITkW/年,浸沒(méi)式液冷的Capex和Opex分別為31000元(yuán)/ITkW和7980元/ITkW/年。根據TCO測(cè)算,現階段冷板式液(yè)冷方案的TCO從開(kāi)始就(jiù)已經低於風冷方案,浸沒式液冷方案(àn)也將在5年左(zuǒ)右之後出現TCO低於風冷方案的拐點。

640.webp (21).jpg

3.4 液(yè)冷技術能夠有效延長(zhǎng)服務器使用壽命(mìng),實現降本增效

傳統電子設備普遍采用空氣冷(lěng)卻方式,溫度是電子設備產(chǎn)生故障(zhàng)的主要原因之一。環境的多樣性包括溫度、濕度、振動、灰塵(chén)等多個方麵,在(zài)導致電子設備失效(xiào)的(de)因素中溫度占了55%,過熱是電子設備(bèi)產生故障(zhàng)的主要誘因。隨著溫度的增加,電子、原子、分子的運動速度(dù)加快,使得電(diàn)子設(shè)備的性能發生變化,當達到一定階段(duàn)時,就會引起嚴重的故障。在高於一般室內(nèi)環境溫度(約20°C~25°C)範圍(wéi)內條件下,故障率大致按(àn)指數規律隨溫度的升高(gāo)而增加。同時,濕度、振(zhèn)動、灰塵等因素同樣會對電(diàn)子設備的工作性能和使用壽命產生負麵(miàn)影響。

640.webp (22).jpg

液冷能夠有效降低服務器部件故障率,延長使用壽命。液體具有(yǒu)比(bǐ)空氣更大的比熱容,散熱能力更強,使得服務器溫度更加穩定,CPU和GPU計算部件可以(yǐ)長時間穩定工作在高性能頻率狀態。此外,浸沒式液冷(lěng)將IT設備浸(jìn)入封閉的液體環境(jìng)中,與空氣完全隔離,並且不再需要高速風(fēng)扇進行散熱(rè),消除了空氣濕度、風扇振動以及灰(huī)塵帶來(lái)的可靠性影響,從而優化了(le)服務器的運行環境,延長了設備的使用(yòng)壽命。根據阿裏雲的實驗數據,與風冷服務器相比,液冷服務(wù)器整體部件故障率(lǜ)下降約53%,其中電源(yuán)、網卡(kǎ)、風扇、網線等部件的故障率下降超過80%。隨著(zhe)單服(fú)務器價值量以(yǐ)及數據中心運營成本的與(yǔ)日俱增(zēng),服務器的可靠性與使用壽命顯得尤為重要,液冷帶來的附加經濟價值有望逐步顯現。

640.webp (23).jpg

3.5 解耦交付模式成為未來發展趨勢(shì),助力液冷產業規範化發展

目前冷板式液冷方案的交付模式可以分為兩類,包括一體化交付與解耦交付兩種。一體化交付是指液冷機櫃的所有部(bù)分,包括機櫃和服務器等,都按照廠商自行設定的標準進行集成設計開(kāi)發,然(rán)後再作為(wéi)一個整體(tǐ)進行(háng)交付(fù)。而解耦交付則要(yào)求液冷機櫃與(yǔ)液冷服務器之間遵循用戶預(yù)先製定的通(tōng)用接口設計規範,機櫃與服務器可以分別由不(bú)同廠商負責(zé)生產和交付。

640.webp (24).jpg

640.webp (25).jpg

解耦交付模式(shì)為大勢所趨,助推冷板式液冷產業規範化發展。服務器與機櫃解耦更有利於形成統一的技術標準及規範,能夠促進行業競(jìng)爭與技術(shù)推廣,讓更多廠商能夠參與液冷行業,實現多廠家(jiā)適配,也便於後續靈活部(bù)署,使得客戶可以根據實際需(xū)求選(xuǎn)擇不(bú)同的服務器和機櫃組合,不(bú)會受限於(yú)某一個供應商。目前華為、超聚變等液冷廠商已經實現了盲插快接,中國移動也已經著手研發新型機(jī)櫃,並計劃在完(wán)成測試後開源,推動更多的服務(wù)器和機櫃廠(chǎng)商參與到盲插(chā)解耦液冷技術的研發與驗證中(zhōng),推動技術(shù)成熟與規(guī)範化。

640.webp (26).jpg

4 數(shù)據中心液冷未來市場規模估算

根據估算,到(dào)2025年,中國數據中心液冷市場規模將達到359億元左右,CAGR達到72.4%;AI數據中心液冷(lěng)市(shì)場規模(mó)將達到280億元左右,CAGR達到71.4%;通用數據中心液冷市場規模將達到79億元,CAGR達到(dào)76.2%。核(hé)心假設如下:

1)假設通用服務器的(de)平均功率為(wéi)0.7kW。以超聚(jù)變FusionServer 2288 V7(2U)作為通用服務器的代表型號(hào),在超聚變服務器功耗計算(suàn)器中測算得出其滿載功率約為0.7kW。

2)假設AI服務器的平均功率為(wéi)3.8kW,其中AI訓練服務器平均功率為8kW,AI推理服務器為2kW。根據產業調研數據(jù),假設AI服務器中訓練與推理的數量關(guān)係約為3:7,訓練服務器中H係列和A係列(liè)所占比例約為4:6,推理服務器(qì)均為T4係列。以超聚變FusionServer G5500 V6作為AI訓練服務器的代表型號,超聚變FusionServer G8600 V7作為AI推理服務器的代(dài)表型號,根據超聚變服務器功耗計算器,H係列訓練(liàn)服務器滿載功率約為10kW,A係列訓練服(fú)務器滿載(zǎi)功率約為6.8kW,T4係列推(tuī)理服務器的功率約為(wéi)2KW。結合以上數量比例關係,可以估算出AI服(fú)務(wù)器平均功率約為3.8kW。

3)假設通用服務器(qì)平均功率每年提升10%,AI訓練與推理服務器平均功率未來三年提升30%/20%/15%。根據近幾年CPU/GPU TDP的變化趨勢,CPU TDP每年提升10%左右,GPU TDP每年(nián)提升20%左右,我們假設通用服務器平(píng)均功率未來三年保持10%左(zuǒ)右的增速(sù),AI訓練與推理服務器平均功率未來三年的增速為30%/20%/15%。

4)至2025年,假設通用服務器液冷滲透率由5%提(tí)升到20%,AI訓(xùn)練服務器液冷滲(shèn)透率由70%提升(shēng)到100%,AI推理服務器液冷滲透率(lǜ)由(yóu)40%提升至70%。根據產業調研(yán)與曙光數創的信息,2022年我國液冷滲透率為(wéi)5%-8%左右,預計2025-2028年時液冷滲透率能達到30%左右。我們假設通用服務器2022年液(yè)冷滲透率為5%,至2025年液冷滲透率上升(shēng)至20%;AI訓練服務器2022年(nián)液冷滲透(tòu)率為70%,至2025年液冷滲透率上升至100%;AI推理服務器2022年液冷滲透(tòu)率為40%,至2025年(nián)液冷滲透率上升至70%;整體(tǐ)液冷滲透率由2022年的8%上升至2025年的25.7%。

5)至2025年,假(jiǎ)設浸沒式(shì)液冷(lěng)滲(shèn)透(tòu)率由10%提升至30%,冷板式液冷滲透率由90%降低至70%。根據IDC《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,按照服務器出貨量(liàng)口徑統(tǒng)計,2023H1我國冷(lěng)板式(shì)液(yè)冷服務器比例為90%左右,浸沒式液冷滲透率僅為10%。隨著未來浸沒式液冷技術(shù)逐漸成熟進入加速推(tuī)廣(guǎng)期,我們預計浸沒式液冷的滲透率由2022年的10%上升至2025年的30%,冷板式液冷的滲透率由2022年的(de)90%下降至(zhì)70%。

6)考慮到大部分數據中心液冷廠商的產品隻覆蓋數據中心液冷基礎設施中的製冷(lěng)係統、機櫃係統等核心部(bù)分,故估算數據中(zhōng)心液冷市場規模時隻考(kǎo)慮數據中心液冷基礎設施中製冷係(xì)統(tǒng)、機櫃係統等核心部分的市場規模,不考慮布線係統、土(tǔ)建、外(wài)電(diàn)、能評等其他配套部分。結合產業調研數據,假設冷板式液冷基礎(chǔ)設施的價值量約為10000元/ITkW,浸沒式(shì)液冷基礎(chǔ)設施的價值量約為15000元/ITkW。

7)考慮到未來數(shù)據中心液冷市(shì)場競爭逐步加劇以及技術逐漸成熟,液冷方案價格將呈逐年(nián)下降的趨勢;冷板(bǎn)式液冷技術目前更(gèng)為成熟,未來價格的下降空間(jiān)相對較小。我們假設冷板式液(yè)冷價值量逐年下降5%,浸沒式液冷價值量逐年(nián)下降10%。

640.webp (27).jpg


以下是A股液冷服務器概念梳理:

中科曙光(guāng):公司的 ParaStor 液冷存儲產品將液冷方案與(yǔ)存儲技術結(jié)合, 有效降低 PUE 值;在應用層麵(miàn),靈活配置多種場景, 針對高性(xìng)能小規模應用(yòng)場景,提供全閃存配置方(fāng)案,而針對中大規(guī)模應用場景,則提供更高(gāo)性價比的混閃(shǎn)配置方案,為客戶釋放更多的業務價值。此外,ParaStor 液冷存儲產品與液冷服務器形成“存算一棧式” 液冷方案,在提高運維效(xiào)率的(de)同時,助力數據中(zhōng)心部署更便捷。(行業龍頭(tóu))

浪潮信息(xī):浪潮信(xìn)息將“All in 液冷”納入公司發展戰略(luè),全棧(zhàn)布局液冷,發布全棧液冷產品,實現通用服務器、高密度服務器、整機櫃服務器、AI 服務器四大係列全線產(chǎn)品均支持冷(lěng)板式液冷,並提供液冷數(shù)據中心全生命周期整體解決方案(行業龍頭)

工業富聯:公司研發基於開放平台聯盟架構的 DC_MHS 數(shù)據(jù)中心模塊化(huà)硬件係統,推出全球**台模塊(kuài)化(huà)服務(wù)器,同時產品應用於客戶*新一代 HPC 加速器中;液冷技術方(fāng)麵,公司持續加(jiā)大數據中心節能技(jì)術研發,通過沉浸式與機櫃式液(yè)冷散熱係統,實現成(chéng)本節約及效率(lǜ)提升。(行業龍(lóng)頭)

紫光股份:2022年公司發(fā)布了H3C UniServer R4900LC G5液冷服務器及以其(qí)為核心的液冷係統、新一代超融合UIS8.0、全新(xīn)綠洲(zhōu)平台2.0等產品和(hé)方案。(行業龍頭)

中(zhōng)興通訊:公司擁(yōng)有全(quán)係列服務器及存儲產品,包括通用服務器、GPU服務器、液冷服務器以及全(quán)閃存儲產品、混閃存儲產品等。(行業龍(lóng)頭)

光迅科技:公司是浸沒液冷智算產業發展聯(lián)盟會員單位,是相關標準、工藝研究和(hé)實踐的重(chóng)要參與者(zhě)之一,目前(qián)已有相關產品發布。(行業新(xīn)玩家)

飛龍股份:公司的數據中心液冷產品在蕪湖飛龍、鄭州飛龍已建有專門生產線。公司多個液冷項目正在進行中,部分項(xiàng)目已經量(liàng)產(chǎn)。(行業新玩(wán)家)

網宿科技(jì):公司全資子公司綠色雲圖自主研發的浸沒式液冷技術,能夠為企業提供更節能、高(gāo)效的液冷數據中心建設及改造(zào)方案。經工業和(hé)信(xìn)息化部電子第五研究所(中國賽寶實(shí)驗室(shì))數據中心能效評估,綠(lǜ)色雲圖自主研發的(de)液冷數據中心PUE均值低至1.049。(行業新玩家(jiā))

潤澤科(kē)技:公司已經開始批量交付液冷機櫃,正在交付的以10kw左(zuǒ)右的高密機櫃為主,以及20kw以上的液冷機櫃。公司(sī)將加快推進高密機櫃和液冷機櫃應用,快速實現(xiàn)整(zhěng)棟液冷數據中心正式投運,向智算中心和超算中心快速演進,形成數據中心、智算中(zhōng)心(xīn)和超算中心融合的綜合算力中心。(行業新玩家)

烽火通信(xìn):公(gōng)司全新一代 FitNeo LCS 液冷解決方案,專為高熱密度機櫃綠色低碳運營而設計。FitNeo LCS 通(tōng)過(guò)芯片級製冷,直接利用*大(dà)溫差快速換熱,實現超低 PUE,CLF 低至(zhì) 0.04,功耗降低 5-20%;同時,具有環保(bǎo)無氟、低噪(zào)低耗、綠色節能等特點,機組管路通(tōng)過(guò)工廠預製模塊化配裝實現快速交付,精減現(xiàn)場動火焊接(jiē)環(huán)節;冷卻液緩蝕(shí)抑(yì)菌、超低電(diàn)導,連接部件超(chāo)高承壓,超低漏率,全鏈路漏液檢測可自(zì)動上報。(行業(yè)新玩家)

銳新科技:公司鋁(lǚ)合金散熱器(qì)應用(yòng)在液冷服務器中。在光模塊的冷卻中,通過對鋁合金基座進行直接水冷散熱的,而光學元件是裝在基板上工(gōng)作,所產生的熱量(liàng)是由基座吸收,從達到散熱的目的。公司鋁合金散熱器應用在液冷服務器光模塊的冷卻。(液冷(lěng)材料)

科(kē)華數據:目前公司自主研發的液冷技術已運用在公司數據中心及儲能產品、解決方案中。領先(xiān)的產品和技術是公司的長期核心競爭力(lì),公司持續跟進客戶的技(jì)術產品需求,做好相關技術儲備,保持(chí)自身技(jì)術的(de)領先(xiān)性。(液冷零部件)

歐陸通:公司為阿裏巴巴(bā)定製的新一代浸沒(méi)式液冷集中式供電電源在雲(yún)棲大(dà)會展(zhǎn)出,應用於磐久服(fú)務器供電係統。該電源方案包括(kuò)晨(chén)沒式液(yè)冷的ATS 2.5KW PSU 和30kw Power Shef,由歐陸通子公司雲電科技自主研發及生產,進入準量產階段。該加工結合了浸沒式液冷+集中式供電(diàn)的雙重優勢,帶ATS部件整機(jī)效率高達97%。(液冷零部(bù)件)

中(zhōng)石科技:公司宜興子公司主(zhǔ)營產品包括液冷模組等,建立相關技術儲備和產品線,為國內外多家服務器企業提供液冷等全方位的管理綜合解決方案。(液冷零部件)

科創新源:公司研發的數(shù)據中心服務器特種散熱模(mó)組可滿足客戶在高算力場景下,高功(gōng)耗半導體芯片的散熱效能,該項目已完成(chéng)樣(yàng)品(pǐn)試製(zhì)並已通過驗證(zhèng)。公司控(kòng)股子公司(sī)蘇州瑞泰克散熱科技有限公司主要產品(pǐn)包括冷凝器、蒸發器以及散(sàn)熱液冷板等熱管理係統產品。(液冷零部件)

高瀾(lán)股份:公司服(fú)務器液冷業務擁有三種解決方案:冷板式液冷、浸沒式液冷(lěng)和集(jí)裝箱式液冷,可有效降低大型數據中心的PUE(數據中心總(zǒng)設備能耗/IT設備能耗)。(液冷零部件)

康盛股(gǔ)份:公司新(xīn)一代(dài)數據中(zhōng)心機房建設完成並投入使用,標誌著(zhe)康盛股份在液冷溫控領域實現(xiàn)新突(tū)破,邁上新台階。康盛股份標準(zhǔn)化浸沒式液(yè)冷機房IT設備功率130kW,可提供2P算力。液冷機房建設主要依據GB50174-2017和液冷數據中心技(jì)術規範(康盛(shèng)股份參編行業標準)。康盛股份標準化浸沒式液冷機房配3台30kW 42U高性能液冷機櫃、2台(tái)20kW 21U高性能液冷機(jī)櫃。目前運行服務器主要有新華三5315Y服務器(qì)和DELL R760服務器。(液冷零部件)

精研科技:公司可為消費電子、通信、激光(guāng)投影、服務器等領域客戶提供風冷模組、液冷模組、液冷板以及模組子件熱管、VC等散(sàn)熱部品。(液冷零部件)

華勤技術:公司已於2021年取得液(yè)冷裝置及(jí)設備的實用(yòng)新(xīn)型**,並在散熱方麵取得(dé)了數據產品散熱核心技術。目前(qián)在部分的人工智能服(fú)務器上使用液冷散熱技術。(液冷零部件)

銳捷網絡(luò):司在業界進行了NPO、液冷(lěng)等創新(xīn)技術的探索和(hé)市場實踐。公司(sī)與頭部互聯網客戶聯合發(fā)布了在大型數據中心規模部(bù)署的浸沒式液冷交(jiāo)換機,提升了數據(jù)中心網絡的可靠性和(hé)能源效率;去年,公司發布(bù)了同時應用NPO矽光(guāng)和冷板式液冷技術(shù)的 51.2T NPO矽光交換(huàn)機,推動數據中心網絡建設更加綠色低碳(tàn)化。(液冷零部件(jiàn))

飛榮達:公司(sī)針對服務器上的散熱需求(qiú)還開發了軸(zhóu)流風扇,特種散熱器,單相液冷冷板模組,兩(liǎng)相液冷模組等產品。(液冷(lěng)零部件)

強瑞技術:公司CDU(液冷分配單元(yuán))單機已通(tōng)過客戶測試並生產。(液冷零部件)

申(shēn)菱環境:公司致力於緊(jǐn)跟客戶步伐(fá),通過高能效,可靠的新(xīn)一代溫控產品如DPC相變冷(lěng)卻係統,新型高效蒸(zhēng)發冷卻係統,液冷溫(wēn)控係統等產品(pǐn)和解決方案服務客戶。(液冷零部件(jiàn))

英維克:公司(sī)在算力行業應(yīng)用的液冷全鏈條(tiáo)解決(jué)方案已有成熟(shú)、完整布局,未來由於AI算力的增(zēng)長勢必拉動(dòng)相關的業務(wù)增長。(液冷零部件)

同方股份:公司目前有基於華為昇騰的(de)AI服務器可提供液冷解決方案。(華為(wéi))

朗威股份:公司是一家數據中心機房及綜合布線設備提供商,主營業務(wù)是服務器機櫃(guì)、冷熱通道、微模塊(kuài)、T-block機架等(děng)數據中心機櫃和綜合布線產(chǎn)品的研(yán)發、生(shēng)產、銷售及服務。2022年公司液冷機櫃產品銷售(shòu)收入占數據中心機櫃銷售總額的比例為3.79%。(液(yè)冷零部件)

神州數碼:公(gōng)司目前(qián)正在進行液冷(lěng)整機櫃產(chǎn)品的需求設計和開(kāi)發。目前液冷共有(yǒu)兩種(zhǒng)主流的技術方案,分別是浸(jìn)沒方案和冷板方(fāng)案,分別適用於不同(tóng)的數據(jù)中心場景,公(gōng)司當前規劃的液(yè)冷整機櫃產品會基於冷(lěng)板開發。(液冷零部件)

雙良節能(néng):公司CDM液冷換熱模塊(kuài)涉(shè)及全浸沒式液冷服務器(qì)換熱模塊與尾端冷卻(què)塔(tǎ)設備,近年來一直獲有優質客戶的訂單。(液冷零部件)

[聲明]文(wén)章係本網編輯轉載,轉載目的在於傳遞更多行業新(xīn)聞信息,文(wén)章僅作交流學習使用,也並不代表本網讚同其觀點和對其(qí)真實性負責。如涉及作品內容、版權和其它問題,請在(zài)30日(rì)內與本網聯係,我們將在**時間刪除(chú)內容!

本站文章版權歸原作者所有 內容為作者個人觀點 本站隻提供參考並不構成(chéng)任何投資及應用建議。本站擁(yōng)有對此聲明的*終解釋權。



欧美久久人人网|国产精品熟妇一区二区三区四区|久久久久国产精品熟女影院|性一乱一搞一交一伦|狂草美女在线视频观看|九月婷婷人人爱人人操人人爽